【机器翻译】Dual Learning 对偶学习

利用翻译问题的对偶性(duality),使模型能够从源语言到目标语言(Source to Target)和从目标语言到源语言(Target to Source)这两个方向的翻译中学习。
同时,这让我们能同时从有监督和无监督的源数据和目标数据中学习。具体而言,我们利用通用的对偶学习(dual learning)方法,并引入联合训练(Joint Training)算法,通过在一个统一的框架中反复提高从源语言到目标语言翻译和从目标语言到源语言翻译的模型,从而增强单语源和目标数据的效果。

如何对偶学习

https://blog.csdn.net/cassiePython/article/details/74929801

这篇讲的也挺不错

横向对比

对偶学习 VS 回译

回译(Back-translation)

双语料

  • 英中翻译 zh = f(en) min loss(zh, f(en))

单语料

  • 对偶学习: min loss(zh, f(g(zh)))
  • 回译: min loss(zh, f(en)) 其中en=g(zh),即回译
    loss=CE

区别,对偶学习同时学 f,g。BT只学f

对偶学习 VS autoencoder

对偶学习 VS 强化学习

对偶学习 VS GAN

扩展阅读

  • Di He, Yingce Xia, Tao Qin, Liwei Wang, Nenghai Yu, Tie-Yan Liu, and Wei-Ying Ma, Dual Learning for Machine Translation, NIPS 2016.